Optimisasiadalah proses matematis untuk menemukan solusi "terbaik"—baik meminimalkan maupun memaksimalkan fungsi tujuan—dalam wilayah layak yang didefinisikan dan dibatasi oleh aturan tertentu.
Metode Klasik vs. Metode Cerdas
- Metode Newton-Raphson:Pendekatan pencarian akar iteratif yang menggunakan turunan orde kedua (Hessian).
- Penurunan Gradien:Metode orde pertama yang bergerak menuju minimum lokal dengan mengikuti gradien negatif.
- Algoritma Evolusioner (EAs):Metode pencarian stokastik berbasis populasi yang terinspirasi oleh seleksi alam biologis.
Konsep Kunci
Sangat penting untuk membedakan antara Vektor Keputusan (variabel yang kita ubah) dan Fungsi Tujuan (ukuran keberhasilan).
Kesalahan Pengkodean
Waspadalah terhadap Gradien Menghilang dalam metode berbasis kalkulus dan Tebing Hamming dalam EAs berkode biner. Peningkatan desimal tunggal (misalnya dari 7 ke 8) dapat memerlukan pembalikan semua bit (0111 menjadi 1000), menciptakan "tebing" yang menghambat efisiensi pencarian. Gunakan Kode Gray untuk mengurangi dampak ini.
Implementasi Python: Penurunan Gradien
Pertanyaan 1
Mengapa masalah optimisasi cembung dianggap "lebih mudah" daripada yang tidak cembung?
Pertanyaan 2
Dalam konteks Algoritma Evolusioner, apa yang diwakili oleh "Fenotipe"?
Studi Kasus: Memaksimalkan Luas Segitiga
Baca skenario di bawah ini dan jawab pertanyaan formulasi.
Pertimbangkan masalah memaksimalkan luas segitiga siku-siku di mana panjang sisi miring $c$ tetap.
Q
1. Identifikasi variabel keputusan dan fungsi tujuan.
Jawaban:
Variabel: Panjang dua kaki, $a$ dan $b$.
Fungsi Tujuan: Maksimalkan $Area = \frac{1}{2} \cdot a \cdot b$.
Variabel: Panjang dua kaki, $a$ dan $b$.
Fungsi Tujuan: Maksimalkan $Area = \frac{1}{2} \cdot a \cdot b$.
Q
2. Nyatakan kendala berdasarkan sifat geometris.
Jawaban:
Berdasarkan teorema Pythagoras, kendalanya adalah: $a^2 + b^2 = c^2$.
Berdasarkan teorema Pythagoras, kendalanya adalah: $a^2 + b^2 = c^2$.
Q
3. Jika menggunakan metode Newton-Raphson, matriks apa yang harus dihitung untuk mempertimbangkan turunan parsial orde kedua?
Jawaban:
Yaitu Matriks Hessian ($H$), yang berisi semua turunan parsial orde kedua dari fungsi tujuan.
Yaitu Matriks Hessian ($H$), yang berisi semua turunan parsial orde kedua dari fungsi tujuan.